iT邦幫忙

2025 iThome 鐵人賽

DAY 17
0
AI & Data

30 天入門常見的機器學習演算法系列 第 17

(Day 17) 淺談深度學習 (Deep Learning)

  • 分享至 

  • xImage
  •  

我們機器學習的部分還有 XGBoost、PCA、OneClass SVM 都還沒有談,只是篇幅限制,原本規劃深度學習大概就要花 15 篇左右的內容來談談,如果後續有篇幅我再補充。

從這篇開始,系列會進入另一個階段: 深度學習 (Deep Learning)。這部分的內容將與前 16 天有明顯不同,因為重點不再是數學公式與演算法推導,而是各種網路架構 (Architectures) 的原理、設計思維與應用。

機器學習 vs. 深度學習

  • 機器學習 (Machine Learning)
    • 特徵工程往往是關鍵: 要先設計、轉換、挑選特徵,才能把問題丟給模型學習
    • 模型通常較淺,例如: 決策樹、SVM、線性回歸
    • 適合中小型資料集,計算需求相對低
    • 優點: 可解釋性高、對資料量需求不大
  • 深度學習 (Deep Learning)
    • 以多層神經網路為核心,能自動從原始資料中學習特徵
    • 不再依賴繁重的人工特徵設計,例如圖像處理不需要先抽 SIFT/HOG,網路會自己學
    • 特別適合高維度、非結構化資料 (圖像、語音、文字)
    • 需要大量資料與算力支撐,否則容易過擬合

一句話總結: 機器學習的「重點」在於 人設計特徵 → 模型學習規則;深度學習則是 模型自己學特徵 + 規則。

為什麼需要深度學習?

  • 處理高維與非結構化資料
    • 傳統 ML 模型處理數值表格非常好用,但面對影像像素矩陣、語音頻譜、自然語言文字序列就顯得力不從心。
    • 深度學習的 CNN、RNN、Transformer 等架構正好能捕捉這些資料的內在結構。
  • 表達能力強大
    • 理論上,一個足夠深的神經網路能近似任何函數 (Universal Approximation Theorem)。
    • 在實務上,這意味著深度學習能擬合遠比傳統演算法更複雜的非線性關係。
  • 自動化特徵抽取
    • 從手動設計特徵到「端到端」學習,深度學習大幅降低了人工干預,提升了跨領域可遷移性。

深度學習的挑戰

  • 資料需求: 需要大量標註資料,否則效果有限
  • 計算需求: 需要 GPU/TPU 等硬體加速
  • 可解釋性低: 模型往往是「黑盒子」,難以直接解釋決策依據
  • 訓練難度: 需要調整大量超參數 (學習率、層數、激活函數、正則化方法等)

結語

深度學習並不是「更高級的機器學習」,而是一種 不同思維:它將特徵學習與規則學習合而為一,讓模型能直接面對複雜且原始的資料。這篇文章作為深度學習的起手式,主要幫助讀者建立心態轉換:從「演算法」的框架,轉向「架構」的世界。

接下來,我會先介紹最基礎的人工神經網路,再逐步進入深度學習的各種變體與應用場景。


上一篇
(Day 16) K-Means
下一篇
(Day 18) 全連接神經網絡 (Fully Connected Neural Network)
系列文
30 天入門常見的機器學習演算法30
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言